Loading...
机构名称:
¥ 1.0

在1990年代初对孩子们缝制跑鞋后,耐克首先拒绝了“供应商工厂的工作条件”,然后公众压力使他们在上游供应链中承担道德规范的责任[7]。在2023年,Openai回应了批评,即肯尼亚工人每小时支付不到2美元的费用,以从其ChatGpt模型中过滤掉创伤性内容,部分原因是它将工作外包给分包商,后者管理工人的付款和精神健康问题[1]。在该职位上,我们认为,鉴于政治经济学和内部关系结构AI生产,特别是检查上游的机会,AI伦理的政策干预必须将AI视为供应链问题。就像物理商品一样,软件是由许多人在“供应链”中的各种文本中开发的组件组成的。Widder和Nafus建议“将伦理和责任作为关系表面的链条特定地点,在这些链条中进行道德决策的特定地点” [25]。他们展示了在AI供应链下方的互动方式如何看待他们的道德责任:开发人员在连锁店中“高”的开发人员认为他们所做的过于“通用”,无法保证道德审查,但下游的那些人却感到无法恢复“道德债务”。以技术债务为类似,“道德债务” [9]是指可能造成下游伤害的未解决的局面,由后来与系统互动的开发人员或用户“支付”。公司AI道德政策声明经常审查设计,同时避免对下游业务使用的审查[13]。但是,AI伦理方法通常集中在开发的组件或其下游效果上,而不是其上游供应链。伦理设计原理和清单是不可能的 - 讽刺表明,满足“公平”,“责任”,“透明”设计原理的系统在用于伤害时显然是不道德的[17],而其他系统则证明,在诸如深层蛋糕之类的情况下,在系统中固有的危害是固有的,因此在系统上是固有的。相关的是,诸如“设计隐私”和“设计数据保护”之类的问题是合法的(在某些司法管辖区),工程要求嵌入了整个开发生命周期的特定软件组件中的隐私问题[29]。但是,供应链框架将考虑该组件如何取决于隐私假设或与供应链中较早开发的依赖关系以及其下游用户的依赖关系的措施。Gürses和Hoboken指出,隐私研究和政策干预措施集中在供应链中的“技术消费”站点上,无视供应链上游软件生产的现代和急剧变化[14]。对人工智能的道德设计干预措施经常在下游思考,通常会借鉴设计未来的[2,8,20,27],场景[30]或价值敏感的设计技术[23],以考虑在部署和使用AI系统期间利益相关者的伤害如何发生。虽然有用,但我们认为在上游有没有探索的机会。

arxiv:2303.07529v2 [cs.cy] 2024年4月16日

arxiv:2303.07529v2 [cs.cy] 2024年4月16日PDF文件第1页

arxiv:2303.07529v2 [cs.cy] 2024年4月16日PDF文件第2页

arxiv:2303.07529v2 [cs.cy] 2024年4月16日PDF文件第3页

arxiv:2303.07529v2 [cs.cy] 2024年4月16日PDF文件第4页

相关文件推荐